Toggle navigation
首页
期刊介绍
期刊简介
历史沿革
收录情况
获奖情况
引用指标
编委会
期刊在线
文章推荐
过刊浏览
专辑专刊
下载排行
阅读排行
投稿指南
组稿方向
投稿须知
论文模板
常见问题
署名变更申请
单位变更申请
版权转让协议
中图分类号
引言书写要求
参考文献著录格式
插图与表格规范
英文摘要书写要求
收费标准
学术诚信
联系我们
编辑部联系方式
位置示意图
期刊订阅办法
广告合作
English
期刊
出版年
关键词
结果中检索
(((孔力[Author]) AND 1[Journal]) AND year[Order])
AND
OR
NOT
文题
作者
作者单位
关键词
摘要
分类号
DOI
Please wait a minute...
选择:
导出引用
EndNote
Ris
BibTeX
显示/隐藏图片
Select
1.
基于深度视觉注意神经网络的端到端自动驾驶模型
胡学敏, 童秀迟, 郭琳, 张若晗, 孔力
计算机应用 2020, 40 (
7
): 1926-1931. DOI:
10.11772/j.issn.1001-9081.2019112054
摘要
(
391
)
PDF
(1287KB)(
747
)
可视化
收藏
针对现有端到端自动驾驶方法中存在的驾驶指令预测不准确、模型结构体量大和信息冗余多等问题,提出一种新的基于深度视觉注意神经网络的端到端自动驾驶模型。为了更有效地提取自动驾驶场景的特征,在端到端自动驾驶模型中引入视觉注意力机制,将卷积神经网络、视觉注意层和长短期记忆网络进行融合,提出一种深度视觉注意神经网络。该网络模型能够有效提取驾驶场景图像的空间特征和时间特征,并关注重要信息且减少信息冗余,实现用前向摄像机输入的序列图像来预测驾驶指令的端到端自动驾驶。利用模拟驾驶环境的数据进行训练和测试,该模型在乡村路、高速路、隧道和山路四个场景中对方向盘转向角预测的均方根误差分别为0.009 14、0.009 48、0.002 89和0.010 78,均低于对比用的英伟达公司提出的方法和基于深度级联神经网络的方法;并且与未使用视觉注意力机制的网络相比,该模型具有更少的网络层数。
参考文献
|
相关文章
|
多维度评价
Select
2.
基于生成对抗双网络的虚拟到真实驾驶场景的视频翻译模型
刘士豪, 胡学敏, 姜博厚, 张若晗, 孔力
计算机应用 2020, 40 (
6
): 1621-1626. DOI:
10.11772/j.issn.1001-9081.2019101802
摘要
(
416
)
PDF
(1339KB)(
591
)
可视化
收藏
针对虚拟到真实驾驶场景翻译中成对的数据样本缺乏以及前后帧不一致等问题,提出一种基于生成对抗网络的视频翻译模型。为解决数据样本缺乏问题,模型采取“双网络”架构,将语义分割场景作为中间过渡分别构建前、后端网络。在前端网络中,采用卷积和反卷积框架,并利用光流网络提取前后帧的动态信息,实现从虚拟场景到语义分割场景的连续的视频翻译;在后端网络中,采用条件生成对抗网络框架,设计生成器、图像判别器和视频判别器,并结合光流网络,实现从语义分割场景到真实场景的连续的视频翻译。实验利用从自动驾驶模拟器采集的数据与公开数据集进行训练和测试,在多种驾驶场景中能够实现虚拟到真实场景的翻译,翻译效果明显好于对比算法。结果表明,所提模型能够有效解决前后帧不连续和动态目标模糊的问题,使翻译的视频更为流畅,并且能适应多种复杂的驾驶场景。
参考文献
|
相关文章
|
多维度评价